Các rủi ro đang tồn tại Triết_học_siêu_nhân_học

Ấn tượng bởi một đoạn phát biểu trong tuyên ngôn về chủ nghĩa nguyên thủy vô chính phủ của Unabomber Theodore Kaczynski (trích trong quyển sách The Age of Spiritual Machines, Kurzweil 1999), nhà khoa học máy tính Bill Joy đã trở thành một nhà phê bình đáng chú ý của các công nghệ mới nổi. Bài luận "Why the future doesn’t need us" (Tại sao tương lai không cần chúng ta) của Joy đã cho rằng con người có thể đảm bảo sự tuyệt chủng của mình bằng cách phát triển công nghệ ưa chuộng bởi thuyết biến đổi con người. Ông cũng nói rằng, một viễn cảnh đen tối nơi mà chúng ta mất kiểm soát đối với sự sao chép của các rô-bốt nanô có thể dẫn đến việc rô-bốt sẽ tiêu thụ toàn bộ hệ sinh thái và hậu quả là "ăn hết môi trường" toàn cầu. Sau lời cảnh báo đó Joy đã bị bắt giữ bởi các tổ chức công nghệ thích hợp như nhóm tổ chức ETC. (ETC: một tổ chức quốc tế để bảo tồn và thăng tiến bền vững của sự đa dạng văn hóa và sinh thái nhân quyền). Triết lý bảo thủ chống lại công nghệ hiện đại tự mô tả của Kalle Lasn – một kẻ gây nhiễu văn hóa, người đồng tác giả quyển "Cyborg Manifesto" (1985) của Donna Haraway đã viết lại vào năm 2001 theo giọng văn phê phán chăm biếm đối với chủ nghĩa xã hội không tưởng nhưng lại viết theo bút pháp như đang đề cao nó - cũng nêu lên những quan điểm tương tự. Lasn lập luận rằng sự phát triển công nghệ cao phải được loại bỏ hoàn toàn nếu nó được sử dụng với mục đích chắc chắn là phục vụ lợi ích của công ty với các hậu quả nghiêm trọng về xã hội và môi trường.Trong cuốn sách 2003 của mình giờ phút cuối cùng của chúng tôi, thiên văn Hoàng gia Anh Martin Rees lập luận rằng khoa học và công nghệ tiên tiến mang lại càng nhiều nguy cơ xảy ra thảm họa như một cơ hội cho sự tiến bộ. Tuy nhiên, Rees không ủng hộ một ngừng hoạt động khoa học, ông gọi cho an ninh chặt chẽ hơn và có thể chấm dứt sự cởi mở khoa học truyền thống. Những người ủng hộ nguyên tắc phòng ngừa, chẳng hạn như nhiều người trong phong trào môi trường, cũng ủng hộ chậm, tiến độ cẩn thận hoặc dừng lại ở các khu vực có khả năng gây nguy hiểm. Một số nhà tiên tri tin rằng trí tuệ nhân tạo và robot trình bày khả năng của các hình thức thay thế nhận thức có thể đe dọa cuộc sống con người. Hệ thống nhượng quyền thương mại Terminator mô tả ngày tận thế của sự xuất hiện của một trí tuệ nhân tạo trở thành siêu nhân có trí thông minh vượt trội – trích trong Skynet, một mạng máy tính ác tính bắt đầu một cuộc chiến tranh hạt nhân để tiêu diệt loài người, thường được trích dẫn bởi một số tham gia vào cuộc tranh luận này.

Những người theo thuyết siêu nhân học không nhất thiết phải loại trừ các hạn chế cụ thể về công nghệ mới nổi như vậy là để làm giảm bớt các khách hàng tiềm năng của nguy cơ hiện hữu. Nói chung, tuy nhiên, họ chống lại đề xuất dựa trên nguyên tắc phòng ngừa là thường không thực tế và đôi khi thậm chí phản tác dụng, như trái ngược với hiện tại của triết học siêu nhân học của Gaiga mà họ tuyên bố là cả hai thực tế và hiệu quả. Trong kết nối series phim truyền hình của mình, khoa học sử học James Burke bóc tách một số thay đổi công nghệ, bao gồm tiên đoán và hạn chế của việc điều tra mở. Burke câu hỏi thực tiễn của một số những quan điểm, nhưng kết luận rằng việc duy trì tình trạng hiện tại của cuộc điều tra và phát triển đặt ra mối nguy hiểm của riêng của mình, chẳng hạn như tỷ lệ mất phương hướng của sự thay đổi và sự cạn kiệt các nguồn tài nguyên của hành tinh của chúng ta. Vị trí của thuyết siêu nhân học phổ biến là phương pháp thực dụng nơi mà xã hội có hành động cố ý để đảm bảo đến sớm trong những lợi ích an toàn, công nghệ sạch thay thế, chứ không phải là bồi dưỡng những gì mà họ coi là chống lại quan điểm khoa và nỗi sợ về công nghệ một cách vô lý.

Một giải pháp về thuyết siêu nhân học được đề xuất bởi Nick Bostrom là khác biệt giữa các công nghệ phát triển, trong đó nỗ lực sẽ được thực hiện để ảnh hưởng đến thứ tự mà trong đó công nghệ phát triển. Trong phương pháp này, các nhà hoạch định sẽ cố gắng để làm chậm sự phát triển của công nghệ có thể có hại và các ứng dụng của họ, trong khi thúc đẩy sự phát triển của công nghệ có thể mang lại lợi ích, đặc biệt là những người cung cấp bảo vệ chống lại các tác hại của những người khác. Một lập luận cho một người phản đối theo chủ nghĩa cấp tiến và bi quan phiên bản của triết học siêu nhân học "cũng đã được trình bày bởi Philippe Verdoux.